Световни новини без цензура!
AI в сравнение с ядрените оръжия и потенциално може да доведе до изчезване на хората: доклад
Снимка: nypost.com
New York Post | 2024-03-11 | 01:36:22

AI в сравнение с ядрените оръжия и потенциално може да доведе до изчезване на хората: доклад

Правителството на Съединени американски щати има „ ясна и незабавна нужда “ да работи, защото бързо развиващият се изкуствен разсъдък може евентуално да докара до изгубване на хората посредством въоръжение и загуба на надзор, съгласно отчет, поръчан от държавното управление.

Докладът, получен от списание TIME и озаглавен „ План за деяние за повишение на сигурността и сигурността на усъвършенствания AI “, декларира, че „ възходът на усъвършенствания AI и AGI има капацитета да дестабилизира световната сигурност по способи, напомнящи на въвеждане на ядрени оръжия. “

„ Като се има поради възходящият риск за националната сигурност, подбуден от бързо разширяващите се качества на ИИ от въоръжение и загуба на надзор - и по-специално фактът, че продължаващото разпространяване на тези качества служи за увеличение на двата риска - има ясна и незабавна потребност от държавното управление на Съединени американски щати да се намеси “, се споделя в отчета, публикуван от Gladstone AI Inc.

Докладът предлага проект за намеса, който е създаден в продължение на 13 месеца, през които откривателите са разговаряли с над двеста души, в това число тези от държавните управления на Съединени американски щати и Канада, огромни снабдители на облачни услуги, организации за сигурност на ИИ и специалисти по сигурността и компютрите.

Планът стартира с определяне на краткотрайни усъвършенствани защитни ограничения за ИИ, преди да ги формализира в закон. След това защитните ограничения ще бъдат интернационализирани.

Някои ограничения биха могли да включват нова организация за изкуствен интелект, която да ограничи равнището на изчислителната мощ, на което е несъмнено ИИ, изисквайки фирмите за изкуствен интелект да получат позволение от държавното управление за внедряване на нови модели над избран предел и да обмислят възбрана на публикуването на какъв брой мощен ИИ моделите работят, като да вземем за пример при лицензиране с отворен код, оповестява TIME.

Докладът също по този начин предлага на държавното управление да затегне контрола върху производството и износа на AI чипове.

Източник: nypost.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!